71 resultados para Mineração de dados (Computação)

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa foi realizada com a intenção de motivar o estudo da criptografia, mostrando que a matemática e a comunicação estão presentes em diversos momentos, tanto no passado quanto no presente. Este trabalho mostra a origem da criptoanálise e toda a sua evolução dando ênfase nos mecanismos de codificação e decodificação através de exemplos práticos. Além disso, alguns métodos criptográficos são destacados como a cifra de substituição monoalfabética, a cifra de Vigenère, a criptografia RSA que é o método mais conhecido de criptografia de chave pública, as cifras de Hill, o método das transformações lineares e o método de Rabin, devido a sua grande importância para a evolução de sistemas computacionais e assinaturas digitais entre outros. Por fim, mostra-se a importância e a necessidade dos recursos criptográficos nos dias de hoje, na tentativa de impedir que hackers e pessoas que fazem mau uso do conhecimento matemático possam causar danos a sociedade, seja por uma simples mensagem ou até mesmo através de situações mais imprudentes como as transações bancárias indevidas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Bacia de São José de Itaboraí está localizada no Município de Itaboraí, no Estado do Rio de Janeiro. Ela foi descoberta em 1928, pelo Engenheiro Carlos Euler, que após analisar um suposto caulim encontrado na Fazenda São José pelo seu então proprietário, Sr. Ernesto Coube, verificou que se tratava de calcário. Os Professores Rui Lima e Silva e Othon H. Leonardos, enviados ao local para estudos, encontraram uma grande quantidade de fósseis de gastrópodes continentais, despertando o interesse científico pela região. Os estudos preliminares de campo e análises químicas evidenciaram boas perspectivas de exploração do calcário para a fabricação de cimento do tipo Portland. Por mais de 50 anos, a Companhia Nacional de Cimento Portland Mauá (CNCPM) explorou a pedreira. Desde sua descoberta, a Bacia de São José, paralelamente às atividades de mineração, foi objeto de pesquisas científicas realizadas por geólogos, paleontólogos e arqueólogos. No início da década de 80, a Cia. de Cimento Mauá decidiu abandonar a área em função do esgotamento econômico da reserva de minério. Com a retirada das bombas que impediam a inundação da pedreira, formou-se uma lagoa que passou a impedir o livre acesso aos afloramentos. Desde então as pesquisas sobre a Bacia ficaram concentradas aos materiais coletados no período de exploração de calcário. Material esse distribuído no Museu Nacional (MN), Departamento Nacional da Produção Mineral (DNPM), Instituto de Geociências da UFRJ, entre outros. Em 1990, a área que pertencia a CNCPM foi desapropriada por pressão da comunidade científica. A mesma passou a pertencer ao Município de Itaboraí, que criou o Parque Paleontológico de São José de Itaboraí, por meio da Lei 1.346, de 12 de dezembro de 1995. O objetivo desse trabalho foi gerar novos dados através do método geofísico conhecido como magnetometria. Para isso foram realizados levantamentos de campo utilizando um magnetômetro portátil e GPS, foram analisados e corrigidos dados utilizando softwares específicos, elaborados modelos e criados perfis a partir de descrições de testemunhos de sondagem. Os resultados obtidos visam possibilitar uma nova interpretação da geologia e da estratigrafia da bacia, dando condições para que se possa ter uma atualização dos conhecimentos relacionados à região, após quase meio século de atividade mineradora.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como objetivo avaliar o impacto radiológico atmosférico da Unidade de Concentrado de Urânio URA, Caetité, BA, através da modelagem da dispersão de radionuclídeos e a estimativa da dose efetiva anual (em mSv.ano-1). Para tal, utilizou-se o programa MILDOS-AREA que foi desenvolvido pelo Argonne National Laboratory (ANL) em conjunto com a U.S. Nuclear Regulatory Commission (USNRC), para avaliar impacto radiológico ambiental atmosférico nas instalações de mineração e beneficiamento de urânio. O incremento de dose efetiva anual para três grupos críticos hipotéticos e oito grupos populacionais reais foi estimado com base na medida de fluxos de radônio e na estimativa das concentrações de radionuclídeos em particulados no ar dos principais termos fontes da URA (cava da mina, depósito de estéril e britador). Paralelamente, as medidas de concentração de radônio e taxa de kerma no ar, reportadas nos relatórios dos programas de monitoração ambiental pré-operacional (PMAPO) e operacional (PMAO) da URA, foram avaliadas. Os valores de dose efetiva anual estimados para os grupos críticos hipotéticos variaram de 1,78E-02 a 2,10E-02 mSv.ano-1, enquanto que para os grupos populacionais, variaram de 7,49E-05 a 1,56E-02 mSv.ano-1. A maior contribuição para o incremento da dose foi devida a inalação do radônio, sendo responsável por quase a totalidade da dose efetiva anual estimada. A média da concentração de atividade de radônio no entorno da URA foi 137,21 Bq m-3 e não sendo observada diferenças significativas entre as concentrações de radônio reportadas nos programas de monitoramento ambiental pré-operacional (valores de background) e operacional. Os valores médios de taxa de kerma no ar no entorno da URA foram de 0,136 μGy h-1. No entanto, em todos os pontos de monitoramento, os valores reportados no programa operacional foram inferiores aos valores reportados no programa pré-operacional (background), o que sugere problemas de medidas ou de coleta de dados durante a realização deste programa. O operador da URA utilizou para avaliação de impacto radiológico atmosférico, resultados apresentados em seus relatórios finais de análise de segurança (RFAS), um modelo próprio de simulação de dispersão, denominado Impacto Ambiental Radiológico (IAR7). Uma comparação entre o MILDOS-AREA e o IAR7, utilizando os mesmos parâmetros de entrada reportados no RFAS sugere que o IAR7 subestimou as concentrações de radônio no ar para os grupos críticos hipotéticos. Os resultados de simulação com o MILDOS-AREA mostram que as doses efetivas estimadas para os grupos críticos hipotéticos são inferiores a 0,3 mSv.ano-1 que é a restrição de dose estabelecida pela Comissão Nacional de Energia Nuclear. Recomenda-se que o código MILDOS-AREA seja utilizado no Brasil, para fins de licenciamento e controle, tendo em vista que o mesmo é um código validado e já utilizado em outros países para avaliar impacto radiológico ambiental atmosférico em instalações de mineração e beneficiamento de urânio

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área estudada está inserida na Faixa Ribeira, Segmento Central da Província Mantiqueira (Almeida et al., 1973, 1977, 1981), que representa um cinturão de dobramentos e empurrões gerado no Neo-proterozóico/Cambriano, durante a Orogênese Brasiliana, na borda sul/sudeste do Cráton do São Francisco (Almeida, 1971, 1977; Cordani et al., 1967, 1973; Cordani & Brito Neves, 1982; Teixeira & Figueiredo, 1991). Neste contexto, o Complexo Quirino é o embasamento retrabalhado do Terreno Paraíba do Sul (Heilbron et al., 2004). O Complexo Quirino é formado por extensos corpos de ortognaisses foliados a homogêneos, leuco a mesocráticos, de granulometria média à grossa, composicionalmente variando entre granitóides tonalíticos/granodioríticos a graníticos, e apresentando enclaves de rochas ultramáficas, máficas e cálcio-silicáticas (ricas em tremolita). Os ortognaisses tonalíticos/granodioríticos apresentam porfiroblastos de plagioclásio e a hornblenda como máfico principal, contrastando com os de composição granítica que apresentam porfiroblastos de K-feldspato e biotita predominante. Como acessórios aparecem zircão, titanita, apatita e epidoto. Também estão associados a estes ortognaisses, granitóides neoproterozóicos que formam corpos individualizados ou lentes anatéticas no conjunto paleoproterozóico. Estes são compostos predominantemente por biotita gnaisse e hornblenda-biotita gnaisse. A análise litogeoquímicas dos ortognaisses do Complexo Quirino demonstrou a existência de duas séries magmáticas distintas. A primeira pertencente à série cálcio-alcalina de alto-K apresenta uma composição mais expandida granítica-adamelítica/granodioritica/tonalítica e é correlacionável aos bt-ortognaisses e alguns hb-bt-ortognaisses. Os ortognaisses da série médio-K apresentam composição predominantemente tonalítica, sendo correlacionáveis à maioria dos hornblenda-biotita gnaisses. Enclaves lenticulares de metapiroxeníticos e anfibolíticos ocorrem em muitos afloramentos. Também ocorrem granitóides neoproterozóicos de composição graníticas a quartzo-monzoníticas O estudo isotópico de Sm-Nd e Sr demonstrou que os ortognaisses da série cálcio-alcalina de alto-K e aqueles da série cálcio-alcalina de médio-K possuem idades modelo TDM variando entre paleoproterozóicas a arqueanas, consistentes com dados U-Pb em zircão publicados na literatura. A série cálcio-alcalina de alto-K é mais antiga (2308 9,2 Ma a 2185 8 Ma) do que a série calcio-alcalina de médio-K (2169 3 a 2136 14 Ma) e a existência de zircões herdados com idades mínimas de 2846 Ma e 2981 Ma para série de médio-K e 3388 16 para série de alto-K. Os granitóides brasilianos possuem idades de cristalização neoproterozóica correlacionada a Orogênese Brasiliana (602 a 627 Ma) (Viana, 2008; Valladares et al., 2002)./Com base nos dados de Sr e Sm-Nd foi possível caracterizar 4 grupos distintos. Os grupos 1 e 2 são formados por rochas de idade paleoproterozóica (2,1 a 2,3 Ga) com idades modelo TDM variando de 2,9 e 3,4 Ga, εNd entre -8,1 e -5,8 e 87Sr/86Sr(t) = 0,694707 (Grupo 1) e TDM variando de 2,5 a 2,7 Ga, εNd entre -5,8 e -3,1 e 87Sr/86Sr(t) = 0,680824 (Grupo 2), formados no paleoproterozóico com contribuição de uma crosta arqueana. O grupo 3 é formado por rochas juvenis de idade paleoproterozóica, com idades de cristalização variando entre 2,0 e 2,2 Ga e com idades modelo TDM variando de 2,1 a 2,2 Ga e εNd entre + 1,5 e + 1,2. O grupo 4 é formado durante o neoproterozóico (645 Ma) por rochas possivelmente de idade paleoproterozóico com idades modelo TDM igual a 1,7 Ga e εNd igual a -8,3.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.